在这项工作中,我们询问并回答是什么使经典的强化学习合作。在社会困境情况下合作对于动物,人类和机器至关重要。尽管进化论揭示了促进合作的一系列机制,但代理商学习合作的条件受到争议。在这里,我们证明了多项式学习设置的哪些单个要素如何导致合作。具体而言,我们考虑了在经典环境中,在经典的环境中,具有一定的囚犯困境,并在经典的环境中使用Epsilon-Greedy探索进行了广泛使用的时间差异增强算法。两个学习代理中的每一个都学会了一种策略,该策略可以在最后一轮的两个代理商的行动选择上进行以下动作选择。我们发现,除了对未来奖励的高度关心,较低的勘探率和较小的学习率之外,这主要是加固学习过程的内在随机波动,最终合作率将最终的合作率翻了一番,高达80 \%。因此,固有的噪声不是迭代学习过程的必要邪恶。这是学习合作的关键资产。但是,我们还指出了合作行为的很高可能性与在合理的时间内实现这一目标之间的权衡。我们的发现与有目的地设计合作算法和调节不希望的犯罪效果有关。
translated by 谷歌翻译